Pentágono impone ultimátum a Anthropic para eliminar restricciones éticas de IA

Anthropic prohíbe usar su IA en armamento autónomo y vigilancia masiva. El Pentágono quiere uso militar ilimitado y podría invocar la Ley de Producción de Defensa, que obligaría a la compañía a someterse a sus dictados.

image 2026 02 25 172312440

Fuentes cercanas al Pentágono revelan la impaciencia del aparato militar, que ya amenaza con declarar a Anthropic como un «riesgo para la cadena de suministro» y colocarla en una lista negra gubernamental si no cede a las presiones de Hegseth. Foto: EFE.


25 de febrero de 2026 Hora: 22:09

    🔗 Comparte este artículo

  • PDF

El Gobierno de Estados Unidos, a través del Pentágono, ha fijado un plazo perentorio para que la empresa de inteligencia artificial Anthropic levante las restricciones de seguridad que impiden el uso de sus modelos en sistemas de armas autónomos y en la vigilancia masiva de la población.

De acuerdo con informes de medios estadounidenses, el secretario de Guerra, Pete Hegseth, mantuvo una tensa reunión el pasado martes con el director ejecutivo de Anthropic, Dario Amodei. La orden de Washington es clara: la empresa tiene hasta este viernes a las 17:00 (hora local) para permitir un uso militar ilimitado de su tecnología o enfrentar la invocación de la Ley de Producción de Defensa, una medida que obligaría a la compañía a someterse a los dictados del Pentágono.

LEA TAMBIÉN:

Venezuela en la estrategia de Defensa nacional 2026 de Estados Unidos

A pesar de su contrato de 200 millones de dólares con el Departamento de Defensa, Anthropic prohíbe el uso de su modelo de IA Claude en armamento autónomo y vigilancia masiva, argumentando que la IA aún no es lo suficientemente confiable para sistemas letales y que el espionaje doméstico carece de un marco legal ético que proteja a los ciudadanos.

Sin embargo, fuentes cercanas al Pentágono revelan la impaciencia del aparato militar, que ya amenaza con declarar a Anthropic como un «riesgo para la cadena de suministro» y colocarla en una lista negra gubernamental si no cede a las presiones de Hegseth.

Esta presión de la Casa Blanca no es nueva, sino que forma parte de una estrategia de dominación tecnológica. Actualmente, el Pentágono negocia contratos similares por hasta 200 millones de dólares con gigantes como Google, OpenAI y xAI.

La peligrosidad de estas herramientas ya ha quedado de manifiesto. El modelo Claude ha sido utilizado a través de la polémica firma Palantir en operaciones de análisis de inteligencia y planificación de misiones. Denuncias recientes vinculan el uso de esta IA en planes de desestabilización y en el secuestro ilegal contra el presidente venezolano, Nicolás Maduro.

Asimismo, la asociación de estas empresas con el régimen de Israel ha facilitado el uso de sistemas de IA para la identificación de objetivos en el genocidio contra el pueblo palestino en Gaza. Mientras que directivos como Alex Karp (Palantir) declaran abiertamente que su tecnología está diseñada para «matar enemigos de Occidente», la Administración estadounidense busca eliminar cualquier «barandilla» ética que frene su capacidad de vigilancia y exterminio tecnificado.

Con este ultimátum, Washington deja claro que en su carrera por la hegemonía tecnológica no hay espacio para la responsabilidad civil ni el respeto a la soberanía de los datos.

El choque entre el Pentágono y Anthropic marca un punto de quiebre en la relación entre Silicon Valley y el complejo militar de EE.UU. Mientras la tecnológica defiende principios de seguridad constitucional para evitar que su IA sea usada en actos de violencia, el Secretario de Defensa, Pete Hegseth, exige eliminar estas barreras. Washington prioriza la letalidad algorítmica de modelos como Claude, calificando la ética corporativa como una debilidad estratégica frente a sus adversarios globales.

La amenaza de invocar la Ley de Producción de Defensa es una medida de fuerza sin precedentes que permitiría al Gobierno intervenir la propiedad intelectual de empresas privadas. De ejecutarse, el Pentágono obligaría a reconfigurar algoritmos para fines bélicos, tomando el control de la IA no solo para el campo de batalla, sino para implementar sistemas de vigilancia interna masiva.

Este escenario se agrava con el rol de Palantir, firma vinculada a la CIA que ya utiliza IA en conflictos activos y operaciones encubiertas. La presión sobre Anthropic busca normalizar el targeting automático, ejecución de objetivos por máquinas sin intervención humana, y consolidar el espionaje global.

Autor: teleSUR - mr - DE

Fuente: The Cradle